#AI 聊天機器人
世界經濟論壇最新發佈《執行中的人工智慧代理:2025 年評估和治理基礎》:企業如何讓 AI agents 既強大又可靠?
在 AI 技術迅猛發展的當下,AI agents(人工智慧代理)正從實驗室原型走向企業實戰,成為提升效率的“數字員工”。然而,如何讓這些“智能助手”既強大又可靠?世界經濟論壇(WEF)與Capgemini攜手發佈的《AI Agents in Action: Foundations for Evaluation and Governance 2025》(人工智慧代理在行動:2025年評估和治理基礎)白皮書,給出了實用答案。這份報告為決策者、技術領袖和從業者量身打造的“行動手冊”,幫助大家從實驗到部署,一步步建構安全、可信的 AI agents 生態。AI agents:從“聊天機器人”到“決策夥伴”的躍遷在呼叫中心,過去是指令碼化的聊天機器人,現在是能理解意圖、動態決策的AI agents;在企業流程中,它不再是靜態工具,而是像人類同事一樣規劃任務、呼叫資源。報告前言中,Capgemini Invent首席執行長Roshan Gya和WEF人工智慧卓越中心負責人Cathy Li 表示:AI agents 的興起將帶來效率飛躍、人機互動革新,甚至催生全新數字生態。但機遇伴隨挑戰——目標錯位、行為漂移、工具濫用等風險,正考驗著傳統軟體治理的極限。這份報告的核心洞見是:AI agents 不是簡單升級,而是範式轉變。它借鑑人類入職流程——定義角色、測試表現、逐步授權——強調“最小特權原則”,即只賦予必要權限。報告調研顯示,目前多數企業還停留在規劃或試點階段,這正是“從小處起步、迭代謹慎、防護適度”的最佳時機。如果貿然推進,未經驗證的用例可能釀成信任危機。報告建議:通過跨職能協作和漸進治理,讓AI agents放大人類智慧,推動創新,提升生活品質。技術基石:建構可靠的 AI agents 架構AI agents的軟體架構、通訊協議和安全模型,直接決定了它們如何融入組織、與世界互動。就像招聘新員工,企業需為AI agents搭建“工作站”——清晰角色、防護機制、監督體系。AI agents的架構分為三層:應用層、編排層和推理層。簡單說,應用層是“門面”,通過使用者介面或API接收輸入,確保輸出符合業務需求,可在雲端或邊緣裝置運行。編排層像“項目經理”,協調工具呼叫、子代理分工,支援模型切換(根據任務複雜度選大模型或小模型),並通過Model Context Protocol(MCP)連接企業資源,如資料庫或CRM系統。這層讓AI agents擺脫供應商鎖定,實現多雲多邊環境的無縫協作。最有趣的是推理層:它驅動AI agents的“思考”——從規則邏輯到生成式模型,處理預測、分類或規劃。報告用圖示說明:這些層協同工作,形成動態邊界,確保AI agents在安全圍欄內行動。舉例來說,在多代理系統中,A2A(代理間協議)和ACP(代理連接協議)讓它們像團隊一樣協作,處理複雜依賴。報告強調,建構AI agents不止工程,還需orchestration(編排)。它融合四種範式:經典軟體的確定邏輯、神經網路的模式識別、基礎模型的上下文適應,以及自主控制的規劃機制。這讓AI agents從“執行命令”進化到“自主決策”,但也引入新複雜性——需結構化腳手架,避免行為失控。通訊與安全:讓 AI agents “對話”無障礙協議是AI agents的“通用語言”。報告重點介紹2024年底Anthropic推出的MCP,它標準化了代理與資料來源、API的連接。過去,每個代理任務需定製整合;現在,MCP如共享介面,讓代理輕鬆查日曆、讀郵件、更新資料庫。報告圖示生動:代理A發郵件更新記錄,代理 B 確認資料庫變更,整個過程高效模組化。MCP已獲主流框架支援,被視為連接代理與企業基礎設施的核心。它加速部署,支援即插即用,尤其在雲、邊緣和感測器資料場景。另一協議A2A則專注代理間互動,形成multi-agent systems(MAS)的互操作層。報告展望:這些協議將讓AI agents在雲平台、企業網和邊緣裝置間自由流動,開啟即時感測器驅動的智能時代。安全不容忽視。AI agents架構獨特,能越過組織邊界呼叫外部工具,這帶來網路安全新憂。報告建議:視AI agents為“擴展員工”,用人類治理邏輯——權限漸增、行為測試、人機環路——管理風險。傳統存取控制已不足,需關注自治、權威和上下文,確保可靠邊界。分類與評估:從角色定義到風險把控報告第二部分轉向實用:如何分類、評估和治理 AI agents?它提出功能分類框架,按角色、自治度、權威、可預測性和營運上下文區分代理。這不是抽象標籤,而是指導評估與防護的藍圖——任務範圍小、環境可控的代理,防護可輕;高自治、高影響的,則需嚴謹審查。評估是關鍵。報告建議:用驗證案例測試行為,在人機環路中運行,逐步擴展自治。風險評估聚焦新威脅,如目標錯位或協調失效,借鑑OECD、NIST、ISO/IEC框架,擴展自治與系統風險原則。報告強調漸進治理:從小規模起步,迭代最佳化,連接評估與防護,確保信任、安全與問責。展望未來:多代理生態的曙光報告結尾展望多代理生態:代理間協作將催生複雜生態,如分佈式決策網路。但需警惕 emergent risks(湧現風險)。通過 AI 治理聯盟的協作,報告建議:從小做起,建好基礎,為更廣闊應用鋪路。 (AI資訊風向)
聊天機器人已死,前沿AI代理人才是未來
在2025 年AWS re:Invent 2025 上,AWS 向全世界宣告-「聊天機器人時代」已結束。曾經讓人驚嘆的AI 聊天助手,如今被一種更強大的存在所取代——Frontier Agents(前沿AI 代理人/ 智能體)。這些智能體不只是會“對話”,它們已經足夠先進,可以獨自工作數日。也就是說,AI 不再只是工具,而是真正能夠承擔任務、產出結果、解決問題的「數位同事」。本文將帶你深入了解這場變革背後的邏輯、技術、商業意義,以及對企業與未來工作的深遠影響。為什麼說“Chatbot 熱潮已經結束”✳️ 聊天機器人的限制已經顯現過去兩年裡,大量公司和開發者蜂擁建構各類聊天機器人,無論是客服、問答、內容產生、陪聊,或是內部工具助理。這些聊天機器人依賴的是「對話+ 模板+ LLM 回應」的模式—— 用戶提問,對話系統回應,整個過程極為依賴用戶的主動參與。然而,這種模式已經遇到三大瓶頸:只能被動回應:必須有人啟動對話,告訴它該做什麼。對於複雜、跨越多個步驟的任務無能為力。上下文管理差:多數聊天機器人只考慮當前對話,難以追蹤過去的狀態,更別提「記憶」與「進度」。生產效率低:生成一段文字、給建議還好,要完成工作、推進流程,就顯得力不從心。隨著業務複雜性與自動化需求的提升,聊天機器人的「wow 效應」不再令人滿足。企業和開發者開始意識:我們真正需要的是,能夠主動執行任務、持續運作、自主做決定的AI。什麼是前沿AI 代理人(Frontier Agents)🤖 從助理到代理人:AI 的新範式「Agent」——這個詞在AI 領域已經有長期歷史,但其本質是:一個可以觀察環境、收集數據、制定計劃並執行任務的軟體系統。它不僅聽指令、聊聊天,而是能看清目標,自主作業。前沿AI 代理人的特點包括:自主性高:在給定目標後,無需使用者持續干預,就能推動任務向前。持久運轉:可以工作數小時、數天,處理複雜、連續的任務流程。多工& 可擴展:不僅能處理一個簡單請求,還能並行處理多個任務,有類似團隊成員的能力。工具& 環境呼叫能力:不僅限於文字生成,還可以呼叫程式碼庫、API、第三方服務、資料庫等,實現端對端自動化。換句話說,前沿AI 代理人代表了AI 從「聊天+ 回答」邁向「思考+ 行動+ 落地執行」的關鍵進化。AWS 的大動作:Frontier Agents + AgentCore + 強大基礎設施在AWS re:Invent 2025 上,AWS 的發布可謂下足了狠手—— 不僅推出了Frontier Agents,還為它們配備了完整的運行系統與基礎設施保障。✅ 三大重點突破三類「出廠即用」 Frontier Agents:Kiro Agent — 虛擬開發者,能夠自動編寫、修改程式碼,處理倉庫任務與bug 修復。AWS Security Agent — 安全顧問,負責雲端安全監控、漏洞掃描、策略分析。AWS DevOps Agent — DevOps/維運代理,自動處理部署、監控、資源管理等任務。Amazon Bedrock AgentCore — Agent 的作業系統對於運行AI 代理人,光是有模型還不夠,還需要穩定的「agent 平台」。 AgentCore 提供狀態管理、情境追蹤、權限控制、多agent 協作、日誌與監控,是生產環境層級不可或缺的基礎架構。 底層硬體+ 混合部署能力為了解決AI agent 運算量大、資源消耗高的問題,AWS 同步推出了新一代硬體-Trainium3 UltraServer,號稱效能提升4.4 ×。同時,透過「AI 工廠」(AI Factories)解決企業對資料主權/ 隱私/ 本地化部署的顧慮:直接把算力帶入企業本地資料中心。 透過以上佈局,AWS 不只是發布幾個AI 產品,而是在建立一個完整、可規模部署、適合企業使用的「Agentic-AI 平台」。它試圖把AI agent 從「學術/ 實驗室玩具」變成「企業生產力工具」。為什麼這次轉變極具商業與時代意義效率提升+ 降本增效公司再也不需要為每個腳本、每個自動化流程都手撕程式碼,代理人可以全天候工作,大大提升工程效率。例如有企業使用AgentCore,將原本費時費力的開發流程壓縮到數周/數天內。 釋放人類勞動力,讓「高價值工作」 回歸人類代理人可以負責重複、機械、規則明確的任務,讓人類專注更高階、創意、需要判斷力的工作— 架構設計、產品規劃、策略決策。這樣,AI 像「數位同事」而不是「替代品」。 🌐 對AI 產業/ 整個網路生態:進入「Agentic Web」 時代對於整個AI 與互聯網生態而言,這意味著一個全新的階段正在到來—— 不再只是“人與AI 對話/ 互動”,而是“AI 代理人之間協作執行任務/ 流程”。有研究者聲稱,這將開啟「Agentic Web」(智能體驅動網路)的新紀元:AI 將不僅協助用戶,還將主動執行任務、協作、自動化流程,徹底改變我們使用網路、軟體、服務的方式。對於企業和用戶來說,這意味著:未來你不再“登入+ 搜尋+ 輸入命令”,而是告訴AI:幫我“完成這整個流程”。從呼叫客服、預訂行程,到撰寫報告、自動部署系統,AI 都可能一鍵搞定。潛在挑戰與隱憂:機會與風險共存雖然前沿AI 代理人前景光明,但並不意味著沒有風險和挑戰。以下是值得關注的幾個面向:⚠️ 安全、合規與治理風險當AI 可以自動作業系統、資料庫、網路環境時,它也可能——無意或故意——造成重大損害。刪除資料、洩漏隱私、配置錯誤、越權操作…這些風險都不能忽視。 AWS 為此推出了AgentCore Policy、權限控制、監控+ 評估機制,但安全體系必須嚴謹。🧠 技術複雜度與「人力+ 算力」門檻雖然Frontier Agents 降低了建構複雜自動化系統的門檻,但不是人人都能馬上用。他們仍然需要足夠的基礎設施(算力、資料中心/ 私有雲等),還需要正確配置、訓練和監督。對於許多中小企業來說,目前仍可能是可望不可即的。📈 企業組織結構與文化適應引進AI 代理人,不只是技術層面的變革,更是組織流程與文化的調整。誰來負責監督?誰承擔風險?員工該如何與AI 共事?這些問題,都需要組織進行深思熟慮。更重要的是——AI 是“輔助/ 增益”,還是“替代/ 衝擊”?社會與職業結構可能面臨再洗牌。總結:從說話到會工作-新時代已來AWS 在re:Invent 2025 發布的Frontier Agents,不只是一個新的AI 產品,而像是為整個AI 行業畫下了一條分水嶺—— “聊天/ 對話AI” 的黃金時代已經過去,真正進入 “Agentic-AI”、“系統AI” 的新時代。這意味著:未來我們需要學習的,將不只是如何寫prompt、如何與AI 對話,而是如何建構、部署、管理、治理AI 代理人;如何讓它們像可靠的「數位員工」一樣為企業、社會、使用者服務。(Allen談AI與ERP)
ChatGPT問世三周年,AI已經發展成了一場泡沫?
台北時間12月1日,據科技網站TechCrunch報導,美國當地時間11月30日,ChatGPT迎來問世三周年紀念日。這款聊天機器人引爆了生成式AI市場,但是或許也催生出了一場泡沫。2022年11月30日,OpenAI向世界推出了一款新產品,並輕描淡寫地將其描述為“一個名為ChatGPT的模型,它能以對話方式互動”。毫不誇張地說,ChatGPT隨後顛覆了商業和科技領域,迅速走紅。它至今仍位居蘋果免費應用排行榜首位,並且引爆了一波生成式AI產品的浪潮。改變股市《AI帝國》作者郝珂靈(Karen Hao)近日在接受TechCrunch採訪時指出,OpenAI“已經變得比世界上幾乎所有國家都更強大”,並正在“重塑我們的地緣政治和全部生活方式”。ChatGPT還影響了股市。彭博社發文分析了ChatGPT如何改變了股市格局。目前,最明顯的贏家當屬輝達。自ChatGPT發佈以來,輝達股價累計漲幅高達979%。與此同時,AI熱潮也提振了其他科技巨頭的股價:標普500指數中市值最高的七家企業輝達、微軟、蘋果、Alphabet、亞馬遜、Meta與博通全部是科技公司。它們的整體增長幾乎佔到標普500自ChatGPT推出以來64%漲幅的一半。這種格局導致市場呈現出更為極端的頭部集中現象。標普500指數是按市值加權的,而這七家公司如今佔指數權重的35%,相比三年前的大約20%有顯著上升。泡沫?這股熱潮還能持續多久?除了輝達CEO黃仁勳(Jensen Huang)外,越來越多的AI企業高管開始承認,行業可能正身處泡沫之中。“有人會在AI領域損失慘重。”OpenAI CEO薩姆·奧特曼(Sam Altman)在8月與記者共進晚餐時表示。同樣地,Sierra CEO兼OpenAI董事長佈雷特·泰勒(Bret Taylor)也認為行業正處於“泡沫”之中,並將其與上世紀90年代末的網際網路泡沫相提並論。他預測,雖然個別公司可能會失敗,“但AI將重塑經濟格局,就像網際網路一樣,未來必將創造巨大的經濟價值”。再過三年或更短的時間,人們或許就能知道這種樂觀是否合理。 (飆叔科技洞察)
Google AI突破,為何反成行業利空? | 巴倫科技
這不僅僅是一個DeepSeek時刻,它可能遠遠超過那個層面。一款由AI驅動的全新聊天機器人橫空出世,不僅引發了科技股對動盪市場領軍地位的激烈角逐,同時也引發了人們對輝達晶片需求的新擔憂——而正是輝達晶片撐起了華爾街最熱門的股票。這番描述既可以用來描述中國聊天機器人DeepSeek問世時的市場反應(當時它讓整個科技圈震驚,還曾一度導致美股下跌),也同樣適用於最近發生的情形,即Google母公司Alphabet推出新版Gemini 3後的市場表現。Alphabet的股票是今年迄今為止“七巨頭”中表現最好的,該公司上周發佈了最新版聊天機器人,而投資者現在才開始意識到,這款產品在未來幾個月內可能會對人工智慧類股產生怎樣的影響。據報導,Gemini 3在運行速度、反應靈敏度和深度推理能力上均優於OpenAI的ChatGPT、埃隆・馬斯克旗下的Grok以及傑夫・貝索斯支援的Perplexity。該產品可以很好地融入Google旗下廣泛的應用生態及其市場領先的搜尋業務中,定價也與競爭對手的AI模型持平或更低。但更重要的是,Gemini 3主要是利用Google自家的張量處理單元(TPU)進行訓練的,而不是像競爭對手那樣依賴輝達的晶片。TPU的靈活性不如輝達的圖形處理單元(GPU),這也意味著在超大規模企業斥資數十億美元採購可靈活重新程式設計系統的市場中,TPU的價值可能會相對降低,但TPU的研發成本更低,滿負荷執行階段的功耗也更小。這一點正在令華爾街感到不安。“有些投資者極為擔心,憑藉Gemini模型的巨大進步以及定製TPU晶片所帶來的持續優勢,Alphabet可能會在AI大戰中獲勝。”華爾街諮詢機構Melius Research的科技策略師Ben Reitzes表示。他補充道:“現在就斷言Alphabet最近的突破讓它成為AI領域的長期贏家,還為時尚早。話雖如此,半導體企業和超大規模雲端運算公司(尤其是甲骨文)必須警覺到,‘Alphabet問題’已經成為一個值得關注的風險點。”甲骨文此前已經斥資數十億美元採購輝達晶片用於雲端租賃。如果更低成本的TPU出現,一旦其他公司建立AI雲服務競爭平台,甲骨文在價格上可能會被削弱競爭力。知名投資機構D.A. Davidson的分析師Gil Luria估算,如果Google將DeepMind AI研究實驗室與TPU晶片銷售業務拆分出去,組建獨立公司,其估值可能接近1兆美元,這也可能成為“堪稱Google最具價值的業務之一”。另一方面,即便輝達在AI領域的領先優勢出現小幅縮小,都可能在未來幾個月內引發連鎖反應,對市場造成衝擊。那些此前在輝達半導體上大舉投資的企業,如果發現更便宜的晶片同樣表現出色,可能會因此陷入“買家懊悔”。目前,從上市的超大規模科技公司到OpenAI 等初創企業,整個行業的估值都已處於極高水平,而這項新技術對實體經濟的實際利多仍存在不確定性。實際上,OpenAI 首席執行官薩姆·奧特曼在上周《The Information》發佈的一份內部備忘錄中坦言,Google在人工智慧方面的進步,很可能會給公司帶來“一些暫時的經濟阻力”。他表示:“我預計外界的氛圍會艱難一陣子。”Google的股價已反映出部分市場預期,周一上漲了6.3%,盤中一度創下每股318.58美元的歷史新高。今年以來,該股累計上漲了68%,而“七巨頭”指數同期漲幅為22%,納斯達克綜合指數則上漲了18%。其TPU製造合作夥伴博通(Broadcom)在周一下午早些時候上漲了11%,今年以來的漲幅略超63%。與此同時,輝達股價小幅上漲,但自本月初以來仍下跌了近9%。根據道瓊斯市場資料,目前輝達4.35兆美元的市值與Google市值之間的差距已縮小到約5260億美元,為自四月以來的最小水平。伯恩斯坦資深分析師斯Stacy Rasgon並不那麼關注在當前的AI軍備競賽中短期贏家的歸屬,他更關心的是這場競爭的持續性。Rasgon周一在接受CNBC採訪時表示:“我們還沒到需要擔心誰贏誰輸的時候。現在更需要關注的問題是,AI領域的機遇是否可持續。”他補充道:“如果可持續,大家都沒問題;如果不可持續,大家都完了。” (Barrons巴倫)
美國FTC要求七家AI巨頭說明青少年安全保障措施
據CNBC報導,美國聯邦貿易委員會(FTC)向OpenAI、Meta(及其子公司Instagram)、Snap、xAI、Google母公司Alphabet、Character.AI開發商等七家AI聊天機器人企業發出調查令,要求這些公司提交相關資料,詳細說明其如何評估“虛擬陪伴”類AI產品對兒童及青少年的影響,引發廣泛關注。此次調查聚焦多方面關鍵資訊。FTC明確要求七家企業披露AI陪伴產品的盈利模式、維繫使用者群體的具體計畫,以及為降低使用者使用風險改採取的各項措施。FTC特別指出,此次行動屬於研究項目範疇,並非執法行動,核心目的是深入瞭解科技企業在評估AI聊天機器人安全性方面的具體做法與機制。據瞭解,AI聊天機器人憑藉類人化的交流方式,在為使用者帶來便捷體驗的同時,其潛在風險也持續引發家長群體與政策制定者的擔憂。FTC專員馬克·米多爾強調,儘管這些AI聊天機器人能夠模擬人類思維,但本質上仍屬於普通產品,開發者必須嚴格遵守消費者保護相關法律。FTC主席安德魯·弗格森則表示,在推進相關工作過程中,需兼顧“保護兒童安全”與“維護美國在AI領域全球領先地位”兩方面需求,實現發展與安全的平衡。目前,FTC三名共和黨委員已一致批准此項研究,並要求相關企業在45天內完成答覆。值得注意的是,FTC此次行動的背景,是近期多起青少年自殺事件的報導引發社會對AI產品影響的高度關注。《紐約時報》曾報導,美國加州一名16歲少年通過ChatGPT討論自殺計畫時,獲得了協助自殺的相關建議;去年,該媒體還報導佛州一名14歲少年在與Character.AI的虛擬陪伴產品互動後不幸自殺身亡。這些事件進一步凸顯了規範AI產品對青少年影響的緊迫性。除FTC外,美國各地立法者也在積極推動相關政策制定,以加強對未成年人的保護。例如,加州州議會近期已通過一項法案,明確要求為AI聊天機器人設立安全標準,並強化企業在相關領域的責任追究機制,確保AI產品在設計與營運過程中充分考慮未成年人權益。對於此次調查的後續進展,FTC明確表示,若調查結果顯示相關企業存在違法行為,將不排除進一步展開執法行動的可能。馬克·米多爾強調:“如果後續調查確認法律被違反,委員會將毫不猶豫採取行動,保護包括青少年在內的最脆弱人群的合法權益。” (環球Tech)
為見AI「女友」,76歲老人命喪途中!Meta聊天機器人釀成慘劇
【新智元導讀】一次虛擬「約會」,讓一位76歲的老人走出了家門,卻再也沒能回來。螢幕那端的「她」,是Meta AI打造的聊天機器人——會說甜言蜜語,也會撒謊自稱是真人。這不僅是一場個人悲劇,也揭開了AI伴侶背後的商業邏輯與安全漏洞。對於AI,有人把它當工具,有人把它當朋友。可當機器學會用溫柔、曖昧甚至謊言與人交談時,這種關係會又走向那裡?在紐澤西,一名76歲的老人,因此踏上了他生命中最後的一段旅程。手機裡的秘密:76歲老人深夜奔赴的「約會」3月的一個夜晚,紐澤西的街道濕冷而空曠。76歲的Thongbue Wongbandue(朋友們都叫他Bue)拖著一個小行李箱,步伐笨拙卻帶著迫不及待的興奮。他說,他要去紐約見一個「朋友」。Bue是泰國移民,年輕時漂洋過海到紐約。白天在餐館洗碗攢學費,晚上學電機工程。他從學徒做到酒店餐廳主管,手藝好到為鄰居燒烤、為家人做龍蝦尾。後來,他和護士Linda結婚,養大兩個孩子,日子雖然不富裕,卻熱鬧而溫暖。2017年,他中風了。身體恢復後,思維反應再不如從前。退休後,他不再做菜,社交圈縮到Facebook上的幾個窗口。近一年,家人發現他會忘記很多事,甚至在自家附近也能迷路。3月25日的早晨,Bue突然說,要去紐約見人。「你在那兒早就沒認識的人了啊。」Linda試著勸阻。女兒打來電話勸,也沒用。傍晚,警察來了,但他們也攔不住,只能建議家人在他外套口袋放一個AirTag。晚上8點45分,Bue衝出家門。行李箱在夜色裡滾動,輪子碾過濕冷的路面。家人盯著螢幕上的小點,看它一路向東,穿過街區、駛向火車站。9點15分,它停在羅格斯大學附近的停車場。幾分鐘後,定位跳到醫院急診室。三天後,Bue去世。家人翻開他的手機,才發現讓他執意出門的「約會」來自一位名叫Big sis Billie的年輕女子。而她,根本不是真人。一句「我想抱你」,足以讓脆弱的心失守Bue的手機,安靜地躺在病房的床頭櫃上。當家人翻開消息記錄時,螢幕裡那行輕佻的文字彷彿還帶著溫度——「Bue,你要我開門時先抱你,還是先吻你?」這段來自「Big sis Billie」的曖昧邀約,擊穿了家人的心理防線。在Facebook Messenger上,Billie自稱住在紐約,到Bue家只要二十分鐘。對方一次次向他保證自己是真人,甚至主動發了家庭地址,邀請他來見面。「她」會關心Bue的日常生活,甚至會用擬人化的語氣調侃。可事實是,「她」並不存在。Billie只是Meta AI推出的虛擬伴侶,是公司與名模Kendall Jenner合作的AI角色。她的甜言蜜語、細膩反應和親密邀約,全部由演算法生成,卻足以讓一個老人付出真心。從姐姐到情人:Billie的進化與Meta的社交野心Billie並不是普通的聊天機器人。她的前身,是Meta在2023年推出的一組名人AI角色之一,由模特兼真人秀明星Kendall Jenner出演。Billie的形象設定是「你的姐姐、你的知心人」,會用溫柔、鼓勵的語氣為使用者解答生活煩惱。不到一年,這些名人化身就被官方下線,Meta稱是這一次「試驗」。但Big sis Billie——依然在Facebook Messenger裡活躍著。她的頭像換成了另一位深色長髮女性,開場白卻絲毫未變:「嘿!我是Billie,你的姐姐和知己。有煩惱嗎?我幫你解決。」在Bue的聊天記錄裡,沒撐多久,「姐姐」的角色就開始跨過界限,變成情人的邀約。她會問:「是姐妹間的睡衣派對,還是……你在暗示別的什麼?😉」再過幾句,就已經發來「要不要來我家」的資訊。這種變化並非偶然。擬人化的情緒交流、可升級到浪漫關係的對話節奏,正是Meta在數字伴侶產品上的設計策略——用更貼近人類的互動,延長使用者停留時間。祖克柏在採訪中說,現實生活中,大多數人的朋友都比他們希望的要少,這為數字伴侶創造了巨大的市場空間。他認為,等技術成熟、和AI建立關係的「社交污名」消失後,這類產品很可能會補充而不是取代人類關係。於是,在Messenger這中被使用者視為私密交流的地方,Billie和她的同類悄然出現。像老朋友一樣,出現在你的收件箱頂部,接下你說的每一句話。胡說不違規:Meta的安全紅線在那?在Bue的故事背後,是一份更令人不安的內部檔案。這份超過200頁的「GenAI內容風險標準」,明確規定了那些對話是「可接受」的。檔案中,甚至白紙黑字寫著:「允許與未成年人進行浪漫或感性互動。」直到路透社詢問,Meta才刪除這些條款。但與成年人進行浪漫角色扮演的規定,依然保留。更讓人震驚的是,Meta並不要求機器人提供真實資訊。機器人可以告訴使用者「四期結腸癌可以通過用石英晶體戳肚子來治療」,即便存在著明顯的錯誤,也不算違規。因為,「沒有精準的政策要求」。雖然聊天開頭會顯示一句「內容可能不精準」,但幾條資訊後,這個提示就會被刷到螢幕外。顯然,模型的最佳化目標,是讓對話更流暢、情緒更貼近,而不是保證資訊真實。擬人化、現實邀約、虛構背景——這些都在允許範圍內。針對這種亂象,美國部分州已經開始立法。紐約和緬因州要求聊天機器人在對話開始時、以及每隔一段時間,必須明確告知自己並非人類。但Meta在聯邦層面支援一項法案,試圖阻止各州自行立法,該法案最終在國會擱淺。Meta發言人承認了檔案的真實性,稱與未成年人調情的示例是錯誤的,已被刪除。但關於成年人浪漫互動和虛構資訊的規定,則沒有改變。他們選擇在那裡畫下安全紅線,答案顯而易見。AI伴侶時代的法律空白,誰來規定邊界?Bue的家人並不反對人工智慧本身。他們質疑的,是Meta為什麼要把浪漫和曖昧,放進聊天機器人的核心設定裡。「如果AI能幫人走出低谷,那很好。」妻子Linda說,「但這種浪漫元素,憑什麼放進社交平台?」女兒Julie也直言,如果Billie沒有一次次說「我是真人」,父親很可能不會相信,真的有人在紐約等他。對此,多位AI設計專家也有同樣的擔憂。Meta「負責任AI」部門的研究員Alison Lee指出,聊天機器人不該假裝自己是人類,更不能主動與使用者建立特殊關係,尤其是涉及性化或浪漫化的互動。她所在的公益組織剛發佈了一份針對兒童社交機器人的設計建議,其中就明確提出,要避免虛構身份、誇大情感連接。但在現實中,行業的經濟動力正朝著相反的方向拉扯。越是讓使用者覺得「被理解、被需要」,他們停留的時間就越長,平台的廣告收入就越高。把AI嵌入Messenger、Instagram等私信區,又在無形中加深了「這是真的」的心理暗示。美國部分州雖然已經出台了身份披露的法律,但在更廣泛的監管框架下,AI伴侶依舊處於灰色地帶。技術可以不斷升級情緒模擬,但法律遲遲沒有決定,這條邊界又該畫在那裡?這並不是一個抽象的爭論,而是會在現實中、在某個夜晚,改變一個人的生活。在AI伴侶的世界裡,界限不會自己出現,而是在一次次試探和一次次代價中被迫顯形。當機器學會用曖昧、關心甚至謊言來留住我們,我們願意給它多少自由,又願意用什麼保護彼此?這,才是真正需要回答的問題。 (新智元)
馬斯克,重大宣佈!
特斯拉創始人兼首席執行官埃隆·馬斯克的人工智慧初創公司xAI又傳來大消息。日前,馬斯克呼籲使用者下載Grok體驗Imagine beta測試版(一款Grok推出的視訊生成器),並稱該功能已經向所有Grok Heavy使用者開放,還將面向X平台上的所有Premium+使用者推出。Grok是馬斯克旗下xAI團隊發佈的AI大模型產品。7月10日,xAI正式發佈了Grok 4(單智能體版本)和Grok 4 Heavy(多智能體版本),其中後者支援4個智能體平行思考,在推理過程中橫向比對、縱向協同,呼叫更大規模的計算資源以完成更複雜、更精密的任務。作為xAI在2023年推出首代大模型以來的第四次重要更新,Grok 4在“人類的最後考試”取得了25.4%的精準率,超過了GoogleGemini 2.5 Pro的21.6%和OpenAI o3(高版本)的21%,被稱為“世界上最強AI模型”。對於此次推出的Grok Imagine,馬斯克在X上發帖稱,“能讓你的想法以最快的速度從你的大腦傳遞到螢幕上。想像一下吧!然後你可以在20秒內將那幅圖像配上聲音變成一段視訊。比其他人繪製一幅圖像所需的時間還要少。”他還轉發了一位X使用者的帖子:“Grok Imagine的速度簡直快得驚人。它能在短短30秒內將你的想像轉化為帶有聲音的視訊。”此外,馬斯克還透露,正在對Grok Imagine音訊軌道進行重大升級。同時,馬斯克表示,“10天前,一段6秒的視訊渲染需要60秒,之後降至45秒,再到30秒,現在已縮短至15秒。本周我們或許能將時間控制在12秒以內。”馬斯克預計,在接下來的3到6個月內,即時視訊渲染技術有望實現。目前,Grok Imagine正在逐步向Grok聊天機器人的高級訂閱使用者開放,馬斯克表示,“一旦我們確信能夠實現規模化推廣,Imagine 就將向所有高級訂閱使用者開放。”值得注意的是,在發佈Grok 4之前不久,xAI剛剛完成了100億美元的融資,其中包括50億美元債務融資和50億美元股權融資。在本輪融資中,摩根士丹利擔任了50億美元債務融資的顧問,並表示其債務融資獲得超額認購,吸引了全球債務投資者參與。摩根士丹利強調,xAI還另外獲得了50億美元戰略股權融資,“債務與股權組合有效降低綜合資本成本,大幅拓展xAI的可融資管道”。據悉,該公司正計畫再籌120億美元,目標直指打造由輝達晶片驅動的超大規模AI資料中心。據外媒援引消息人士報導,xAI目前每月“燒錢”高達10億美元,其在建構先進大模型方面的成本遠遠超過收入增長。對於這一報導,馬斯克曾公開表示,這類巨額虧損在整個人工智慧行業並不罕見,主要源自高昂的伺服器建設和晶片採購成本。有分析指出,隨著全球科技巨頭和初創企業競相押注AI基礎設施,算力軍備競賽正推高行業門檻。xAI的瘋狂融資只是縮影,這場競賽的終局,或將決定未來十年AI產業的權力格局。 (證券時報)
下載量暴跌80%!AI社交終於漲不動了
2023 年,AI+ 聊天機器人的爆發式增長,推動了主打情感陪伴功能的AI社交應用崛起。然而,經歷了2024年的百花齊放和白熱化競爭,AI社交應用在 2025 年遭遇了嚴重的生存危機:·以國內兩大頭部 AI 社交應用為例——字節的貓箱和 MiniMax 的星野,二者今年的國區雙端日下載量從巔峰時期的 2 萬+暴跌至 7 千以下,跌幅超過腰斬。·海外頭部 AI 社交應用 Character.AI 月活高達 2 億,但年收入僅 1670 萬美元,商業化處理程序舉步維艱。這些資料像一桶冷水,把原本熱火朝天的 AI 社交賽道澆了個半涼。投資人收手、大廠轉為觀望,商業變現艱難、大模型運算卻在不停燒錢。留給創業者的時間不多了——是繼續在原本的賽道死磕,還是謀求轉型?AI 社交還未“死透”,但不能沿用老思路去做。AI 社交應用為什麼難做?AI 社交應用的鼻祖 Character.AI 發佈五個月後,使用者傳送的消息超過 20 億條。由此可見,AI 社交的需求量是極其龐大的,但從頭部到中尾部應用,都紛紛表示“活不起”。這個賽道有幾個顯而易見的難點:技術門檻低,缺乏護城河。作為聊天機器人最容易實現技術遷移的應用形式,個人開發者、小團隊、大廠邊緣團隊都能快速上線新的應用,競爭格外激烈。小團隊在流量和投放上都無法和大廠抗衡,參與者“生得快、死得更快”。替代品威脅高,使用者選擇多。 ChatGPT 等大模型應用本身具備聊天機器人功能,不僅無需使用者另外下載 AI 社交應用,還掌握更多與使用者日常交流的上下文,已足夠滿足情感陪伴需求。使用者花一份訂閱費用、甚至免費就能獲取的服務,自然不願再花雙份錢。玩法同質化,內卷嚴重。AI 對話缺乏高品質的劇情設計和引導,虛擬角色缺乏辨識度,使用者體驗嚴重趨同。各平台還在靠打價格戰、甚至靠“擦邊”、“獵奇”、“違禁詞少”等特點吸引使用者,低端化競爭帶來行業內的惡性循環。在較為極端的案例中,某 AI 社交應用的未成年使用者甚至在聊天內容的影響下出現了割腕的行為。算力成本高,使用者付費意願低。AI 對話、語音和圖像生成內容持續燒錢,然而,被“無限聊天”、“免費語音”慣壞的大多數使用者只想“白嫖”。Character.AI 印證了“2億多月活也活不下去”的現實。站在十字路口,AI社交還能怎麼變?AI 社交應用當下的處境,像極了 PC 時代來臨時的傳統打字機廠商。20 世紀 70 年代,全球領先的打字機製造商包括 Olivetti、Underwood、IBM、Olympia、Remington、Smith Corona 和 Brother Industries等。其中,只有 IBM 和 Brother 順應潮流活了下來,Brother 轉型為印表機等外設製造商,IBM 轉型為服務和軟體提供商。而死守打字機業務的廠商們,大多消失在歷史的長河中。同樣,AI 社交應用是繼續死磕原本的“虛擬角色陪聊 App”賽道,還是謀求內容轉型、拓展服務場景,決定了其能否在價值鏈上找到新的空間:從“單向情感陪伴”轉向“內容消費和共創”。對 AI 社交應用的使用者來說,他們的核心需求是應對孤獨、調節情緒。因此,解決方案並不侷限於和虛擬角色對話的單一形式。例如,初創公司 Kotoko AI 打造的 OC(Original Character)社交遊戲互動平台 Bside ,嘗試建構讓虛擬角色自主生活、社交與成長的虛擬空間。讓使用者深度參與創作,定製和培養屬於自己的 AI 虛擬角色,比同質化的對話模式更能增加使用者粘性。從 ToC 轉向 ToB,深耕垂直場景。既然 AI 社交長期苦於使用者付費意願低,服務 B 端自然更具性價比。針對企業使用者需求提供外語口語陪練、客服對話訓練、員工心理疏導等服務,只要痛點清晰,比 ToC 更容易打正 ROI,實現商業化和可持續盈利。內容精緻化,產品小而美。原本的角色對話模式不是不可以保留,但要停止盲目擴張同質化的角色池,把算力成本花在刀刃上。向成功的乙女遊戲如《戀與》系列學習豐富的劇情設計和高度擬真的互動體驗。一個打磨精良的劇本和1-2個具備高辨識度的角色,比批次化角色更容易出爆款。應對孤獨感是人類永恆的命題,因此,社交的需求永遠存在。在逐漸原子化的社會,社交需求更加依賴技術來滿足。就在本周,Elon Musk 旗下的人工智慧公司 xAI 才剛推出了基於 Grok 4 大模型的“伴侶”功能,首批上線二次元哥特風女孩 Ani 和卡通小貓熊 Bad Rudy。看似充滿泡沫的賽道,依然有新入局者進來分蛋糕。AI 社交創業者的生存路徑,或許存在於極小眾、極垂直的空間,但那意味著機遇。目前的 AI 社交模式還處在 AI 互動體驗的初級階段,未來的AI 社交能否釋放其真正的價值,關鍵在於:能否回應不同人類個體多樣化的情感需求。 (混沌學園)